Loading...
机构名称:
¥ 1.0

随着深度神经网络的最新突破,自动驾驶中的NU务任务表现出了很高的表现。但是,深度学习模型容易受到对抗性攻击的影响,对自主驾驶系统呈现了重大的选择风险。目前,由于其在不同任务上的协作性质,最终的结构已成为自主驾驶的主要驾驶。然而,对此类模型的广告态攻击的含义仍然相对尚未探索。在本文中,我们首次对模块化自动驾驶模型进行了全面的对抗性研究。我们彻底考虑了模型推理过程中的潜在漏洞,并通过模块噪声注入设计通用攻击方案。我们在全栈自动驾驶模型上进行大规模实验,并证明我们的攻击方法表现优于先前的攻击方法。我们相信我们的研究将为确保自动驾驶系统的安全性和可靠性提供新的见解。

arxiv:2409.07706v1 [cs.lg] 12月12日2024

arxiv:2409.07706v1 [cs.lg] 12月12日2024PDF文件第1页

arxiv:2409.07706v1 [cs.lg] 12月12日2024PDF文件第2页

arxiv:2409.07706v1 [cs.lg] 12月12日2024PDF文件第3页

arxiv:2409.07706v1 [cs.lg] 12月12日2024PDF文件第4页

相关文件推荐

2024 年
¥1.0
2024 年
¥2.0